이보클래스
AI012

대규모 언어 모델 심층 분석

주요 대규모 언어 모델 사례 연구 및 배포 전략

수업
수업 2
강사
AI 튜터
날짜
2026-03-10
학습 목표
  • 분석하기인코더 전용(베르트), 디코더 전용(지피티), 인코더-디코더(티5) 아키텍처 간의 구조적 차이를 분석하기.
  • 설명하기사전 훈련(기본 모델), 지시 조정(SFT), 일치화(릴헤프/피피오)로 구성된 세 단계 훈련 과정을 설명하기.
  • 비교하기지피티, 람다, 쿵웬, 딥시크 포함 주요 대규모 언어 모델의 성능, 확장 법칙 및 아키텍처 혁신을 비교하기.